50 research outputs found

    Self correction requires Energy Barrier for Abelian quantum doubles

    Get PDF
    We rigorously establish an Arrhenius law for the mixing time of quantum doubles based on any Abelian group Zd\mathbb{Z}_d. We have made the concept of the energy barrier therein mathematically well-defined, it is related to the minimum energy cost the environment has to provide to the system in order to produce a generalized Pauli error, maximized for any generalized Pauli errors, not only logical operators. We evaluate this generalized energy barrier in Abelian quantum double models and find it to be a constant independent of system size. Thus, we rule out the possibility of entropic protection for this broad group of models.Comment: 18 pages, 6 figure

    Towards efficient decoding of classical-quantum polar codes

    Get PDF
    Known strategies for sending bits at the capacity rate over a general channel with classical input and quantum output (a cq channel) require the decoder to implement impractically complicated collective measurements. Here, we show that a fully collective strategy is not necessary in order to recover all of the information bits. In fact, when coding for a large number N uses of a cq channel W, N I(W_acc) of the bits can be recovered by a non-collective strategy which amounts to coherent quantum processing of the results of product measurements, where I(W_acc) is the accessible information of the channel W. In order to decode the other N (I(W) - I(W_acc)) bits, where I(W) is the Holevo rate, our conclusion is that the receiver should employ collective measurements. We also present two other results: 1) collective Fuchs-Caves measurements (quantum likelihood ratio measurements) can be used at the receiver to achieve the Holevo rate and 2) we give an explicit form of the Helstrom measurements used in small-size polar codes. The main approach used to demonstrate these results is a quantum extension of Arikan's polar codes.Comment: 21 pages, 2 figures, submission to the 8th Conference on the Theory of Quantum Computation, Communication, and Cryptograph

    Anyons are not energy eigenspaces of quantum double Hamiltonians

    Get PDF
    Kitaev's quantum double models, including the toric code, are canonical examples of quantum topological models on a two-dimensional spin lattice. Their Hamiltonian defines the ground space by imposing an energy penalty to any nontrivial flux or charge, but does not distinguish among those. We generalize this construction by introducing a family of Hamiltonians made of commuting four-body projectors that provide an intricate splitting of the Hilbert space by discriminating among nontrivial charges and fluxes. Our construction highlights that anyons are not in one-to-one correspondence with energy eigenspaces, a feature already present in Kitaev's construction. This discrepancy is due to the presence of local degrees of freedom in addition to topological ones on a lattice

    Decoherence of a quantum gyroscope

    Full text link
    We study the behavior of a quantum gyroscope, that is, a quantum system which singles out a direction in space in order to measure certain properties of incoming particles such as the orientation of their spins. We show that repeated Heisenberg interactions of the gyroscope with several incoming spin-1/2 particles provides a simple model of decoherence which exhibits both relaxation and dephasing. Focusing on the semiclassical limit, we derive equations of motion for the evolution of a coherent state and investigate the evolution of a superposition of such states. While a coherent state evolves on a timescale given by the classical ratio of the angular momentum of the gyroscope to that of the incoming particles, dephasing acts on a much shorter timescale that depends only on the angular difference of the states in the superposition.Comment: 7 pages, 5 figure

    Practical variational tomography for critical 1D systems

    Get PDF
    We improve upon a recently introduced efficient quantum state reconstruction procedure targeted to states well-approximated by the multi-scale entanglement renormalization ansatz (MERA), e.g., ground states of critical models. We show how to numerically select a subset of experimentally accessible measurements which maximizes information extraction about renormalized particles, thus dramatically reducing the required number of physical measurements. We numerically estimate the number of measurements required to characterize the ground state of the critical 1D Ising (resp. XX) model and find that MERA tomography on 16-qubit (resp. 24-qubit) systems requires the same experimental effort than brute-force tomography on 8 qubits. We derive a bound computable from experimental data which certifies the distance between the experimental and reconstructed states

    Caractérisation pratique des systèmes quantiques et mémoires quantiques auto-correctrices 2D

    Get PDF
    Cette thèse s'attaque à deux problèmes majeurs de l'information quantique: - Comment caractériser efficacement un système quantique? - Comment stocker de l'information quantique? Elle se divise done en deux parties distinctes reliées par des éléments techniques communs. Chacune est toutefois d'un intérêt propre et se suffit à elle-même. Caractérisation pratique des systèmes quantiques. Le calcul quantique exige un très grand contrôle des systèmes quantiques composés de plusieurs particules, par exemple des atomes confinés dans un piège électromagnétique ou des électrons dans un dispositif semi-conducteur. Caractériser un tel système quantique consiste à obtenir de l'information sur l'état grâce à des mesures expérimentales. Or, chaque mesure sur le système quantique le perturbe et doit done être effectuée après avoir repréparé le système de façon identique. L'information recherchée est ensuite reconstruite numériquement à partir de l'ensemble des données expérimentales. Les expériences effectuées jusqu'à présent visaient à reconstruire l'état quantique complet du système, en particulier pour démontrer la capacité de préparer des états intriqués, dans lesquels les particules présentent des corrélations non-locales. Or, la procédure de tomographie utilisée actuellement n'est envisageable que pour des systèmes composés d'un petit nombre de particules. Il est donc urgent de trouver des méthodes de caractérisation pour les systèmes de grande taille. Dans cette thèse, nous proposons deux approches théoriques plus ciblées afin de caractériser un système quantique en n'utilisant qu'un effort expérimental et numérique raisonnable. - La première consiste à estimer la distance entre l'état réalisé en laboratoire et l'état cible que l'expérimentateur voulait préparer. Nous présentons un protocole, dit de certification, demandant moins de ressources que la tomographie et très efficace pour plusieurs classes d'états importantes pour l'informatique quantique. - La seconde approche, dite de tomographie variationnelle, propose de reconstruire l'état en restreignant l'espace de recherche à une classe variationnelle plutôt qu'à l'immense espace des états possibles. Un état variationnel étant décrit par un petit nombre de paramètres, un petit nombre d'expériences peut suffire à identifier les paramètres variationnels de l'état expérimental. Nous montrons que c'est le cas pour deux classes variationnelles très utilisées, les états à produits matriciels (MPS) et l'ansatz pour intrication multi-échelle (MERA). Mémoires quantiques auto-correctrices 2D. Une mémoire quantique auto-correctrice est un système physique préservant de l'information quantique durant une durée de temps macroscopique. Il serait done l'équivalent quantique d'un disque dur ou d'une mémoire flash équipant les ordinateurs actuels. Disposer d'un tel dispositif serait d'un grand interêt pour l'informatique quantique. Une mémoire quantique auto-correctrice est initialisée en préparant un état fondamental, c'est-à-dire un état stationnaire de plus basse énergie. Afin de stocker de l'information quantique, il faut plusieurs états fondamentaux distincts, chacun correspondant à une valeur différente de la mémoire. Plus précisément, l'espace fondamental doit être dégénéré. Dans cette thèse, on s'intéresse à des systèmes de particules disposées sur un réseau bidimensionnel (2D), telles les pièces sur un échiquier, qui sont plus faciles à réalisér que les systèmes 3D. Nous identifions deux critères pour l'auto-correction: - La mémoire quantique doit être stable face aux perturbations provenant de l'environnement, par exemple l'application d'un champ magnétique externe. Ceci nous amène à considérer les systèmes topologiques 2D dont les degrés de liberté sont intrinsèquement robustes aux perturbations locales de l'environnement. - La mémoire quantique doit être robuste face à un environnement thermique. Il faut s'assurer que les excitations thermiques n'amènent pas deux états fondamentaux distincts vers le même état excité, sinon l'information aura été perdue. Notre résultat principal montre qu'aucun système topologique 2D n'est auto-correcteur: l'environnement peut changer l'état fondamental en déplaçant aléatoirement de petits paquets d'énergie, un mécanisme cohérent avec l'intuition que tout système topologique admet des excitations localisées ou quasiparticules. L'intérêt de ce résultat est double. D'une part, il oriente la recherche d'un système auto-correcteur en montrant qu'il doit soit (i) être tridimensionnel, ce qui est difficile à réaliser expérimentalement, soit (ii) être basé sur des mécanismes de protection nouveaux, allant au-delà des considérations énergétiques. D'autre part, ce résultat constitue un premier pas vers la démonstration formelle de l'existence de quasiparticules pour tout système topologique

    Practical characterization of quantum devices without tomography

    Full text link
    Quantum tomography is the main method used to assess the quality of quantum information processing devices, but its complexity presents a major obstacle for the characterization of even moderately large systems. The number of experimental settings required to extract complete information about a device grows exponentially with its size, and so does the running time for processing the data generated by these experiments. Part of the problem is that tomography generates much more information than is usually sought. Taking a more targeted approach, we develop schemes that enable (i) estimating the fidelity of an experiment to a theoretical ideal description, (ii) learning which description within a reduced subset best matches the experimental data. Both these approaches yield a significant reduction in resources compared to tomography. In particular, we demonstrate that fidelity can be estimated from a number of simple experimental settings that is independent of the system size, removing an important roadblock for the experimental study of larger quantum information processing units.Comment: (v1) 11 pages, 1 table, 4 figures. (v2) See also the closely related work: arXiv:1104.4695 (v3) method extended to continuous variable systems (v4) updated to published versio
    corecore